neo npu ip 文章 最新資訊
SiFive推出全新RISC-V IP,融合標量、向量與矩陣運算
- SiFive 近日正式推出第二代 Intelligence? 系列,進一步強化其在 RISC-V AI IP 領域的技術(shù)領先優(yōu)勢。此次發(fā)布的五款新產(chǎn)品,專為加速數(shù)千種 AI 應用場景中的工作負載而設計。該系列包括兩款全新產(chǎn)品——X160 Gen 2 與 X180 Gen 2,以及升級版 X280 Gen 2、X390 Gen 2 和 XM Gen 2。所有新產(chǎn)品均具備增強的標量、向量處理能力,其中 XM 產(chǎn)品還加入了矩陣處理功能,專為現(xiàn)代AI工作負載設計。其中,X160 Gen 2 與 X180 Gen
- 關(guān)鍵字: SiFive RISC-V IP
6TOPS算力驅(qū)動30億參數(shù)LLM,米爾RK3576部署端側(cè)多模態(tài)多輪對話
- 當 GPT-4o 用毫秒級響應處理圖文混合指令、Gemini-1.5-Pro 以百萬 token 上下文 “消化” 長文檔時,行業(yè)的目光正從云端算力競賽轉(zhuǎn)向一個更實際的命題:如何讓智能 “落地”?—— 擺脫網(wǎng)絡依賴、保護本地隱私、控制硬件成本,讓設備真正具備 “看見并對話” 的離線智能,成為邊緣 AI 突破的核心卡點。2024 年,隨著邊緣 SoC 算力正式邁入 6 TOPS 門檻,瑞芯微 RK3576 給出了首個可量產(chǎn)的答案:一套完整的多模態(tài)交互對話解決方案。RK3576多模態(tài)純文字:自我介紹如今,“端
- 關(guān)鍵字: 瑞芯微 RK3576 NPU(神經(jīng)網(wǎng)絡處理器) 端側(cè)小語言模型(SLM) 多模態(tài) LLM 邊緣AI部署 開發(fā)板
Qwen2-VL-3B模型在米爾瑞芯微RK3576開發(fā)板NPU多模態(tài)部署指導與評測
- 隨著大語言模型(LLM)技術(shù)的快速迭代,從云端集中式部署到端側(cè)分布式運行的趨勢日益明顯。端側(cè)小型語言模型(SLM)憑借低延遲、高隱私性和離線可用的獨特優(yōu)勢,正在智能設備、邊緣計算等場景中展現(xiàn)出巨大潛力。瑞芯微 RK3576 開發(fā)板作為一款聚焦邊緣 AI 的硬件平臺,其集成的 NPU(神經(jīng)網(wǎng)絡處理器)能否高效支撐多模態(tài) LLM 的本地運行?性能表現(xiàn)如何??RK3576 多模態(tài)純文字:愛因斯坦有什么貢獻RK3576 多模態(tài)純文字:自我介紹本文將圍繞這一核心問題展開 —— 從端側(cè) SLM 與云端 LL
- 關(guān)鍵字: 瑞芯微 RK3576 NPU 端側(cè)小語言模型 SLM 多模態(tài) LLM
燦芯半導體推出PCIe 4.0 PHY IP
- 一站式定制芯片及IP供應商——燦芯半導體(上海)股份有限公司(燦芯股份,688691)宣布推出基于28HKC+ 0.9V/1.8V平臺的PCIe 4.0 PHY IP。該PHY IP符合PCIe 4.0規(guī)范的要求,支持PIPE 4.4.1/5.2接口及2.5Gbps至16Gbps的數(shù)據(jù)傳輸速率,全面覆蓋PCIe Gen4.0/3.0/2.0/1.0標準,并兼容Rapid IO、JESD204B/C、USB3.2/3.1/3.0、10GBASE-R/KR等其他協(xié)議。憑借其優(yōu)越的
- 關(guān)鍵字: 燦芯 PCIe 4.0 PHY IP
Ceva無線連接IP市場份額達68%,穩(wěn)居行業(yè)首位
- 據(jù)IPnest最新發(fā)布的2025年設計IP報告顯示,Ceva公司在無線連接IP領域繼續(xù)保持領先地位,市場份額在2024年增長至68%。這一數(shù)字是其最接近競爭對手的10倍以上,進一步鞏固了其在智能邊緣設備聯(lián)機功能中的核心地位。Ceva(納斯達克股票代碼:CEVA)作為全球領先的智能邊緣領域半導體產(chǎn)品和軟件IP授權(quán)許可廠商,其技術(shù)覆蓋藍牙、Wi-Fi、UWB、802.15.4及蜂窩物聯(lián)網(wǎng)IP解決方案。這些技術(shù)為下一代智能邊緣設備提供了重要支持,滿足了市場對高性能、低功耗解決方案的不斷增長需求。Ceva首席運營
- 關(guān)鍵字: Ceva 無線連接 IP
Arteris將為AMD新一代AI芯粒設計提供FlexGen智能片上網(wǎng)絡 (NoC) IP
- 在AI計算需求重塑半導體市場的背景下。致力于加速系統(tǒng)級芯片 (SoC) 開發(fā)的領先系統(tǒng) IP 提供商 Arteris 公司近日宣布,高性能與自適應計算領域的全球領導者 AMD(納斯達克股票代碼:AMD)已在其新一代AI 芯粒設計中采用FlexGen片上網(wǎng)絡互連IP。Arteris的這項智能NoC IP技術(shù)將為 AMD 芯粒提供高性能數(shù)據(jù)傳輸支持,賦能AMD從數(shù)據(jù)中心到邊緣及終端設備的廣泛產(chǎn)品組合中的AI應用。Arteris FlexGen NoC IP與AMD Infinity Fabric?互連技術(shù)的戰(zhàn)
- 關(guān)鍵字: Arteris AMD AI芯粒 片上網(wǎng)絡 NoC IP
四大核心要素驅(qū)動汽車智能化創(chuàng)新與相關(guān)芯片競爭格局
- 智能汽車時代的加速到來,使車載智能系統(tǒng)面臨前所未有的算力需求。隨著越來越多車型引入電子電氣架構(gòu)轉(zhuǎn)向中心化、智能駕駛的多傳感器融合、智能座艙的多模態(tài)交互以及生成式AI驅(qū)動的虛擬助手等創(chuàng)新技術(shù),都要求車用主芯片能夠同時勝任圖形渲染、AI推理和安全計算等多重任務。當下,功能安全、高效高靈活性的算力、產(chǎn)品生命周期,以及軟件生態(tài)兼容性這“四大核心要素”,已成為衡量智能汽車AI芯片創(chuàng)新力和市場競爭力的核心標準。傳統(tǒng)汽車計算架構(gòu)中,往往采用CPU與GPU或/和NPU等計算單元組成異構(gòu)計算模式;隨著自動駕駛算法從L1向L
- 關(guān)鍵字: 202507 汽車智能化 Imagination GPU IP
合見工軟發(fā)布先進工藝多協(xié)議兼容、集成化傳輸接口SerDes IP解決方案
- 中國數(shù)字EDA/IP龍頭企業(yè)上海合見工業(yè)軟件集團有限公司(簡稱“合見工軟”)近日發(fā)布國產(chǎn)自主研發(fā)支持多協(xié)議的32G SerDes PHY 解決方案UniVista 32G Multi-Protocol SerDes IP (簡稱UniVista 32G MPS IP)。該多協(xié)議PHY產(chǎn)品可支持PCIe5、USB4、以太網(wǎng)、SRIO、JESD204C等多種主流和專用協(xié)議,并支持多家先進工藝,成功應用在高性能計算、人工智能AI、數(shù)據(jù)中心等復雜網(wǎng)絡領域IC企業(yè)芯片中部署。隨著全球數(shù)據(jù)量呈指數(shù)級增長,這場由數(shù)據(jù)驅(qū)
- 關(guān)鍵字: 合見工軟 SerDes IP
并行計算的興起:為什么GPU將在邊緣AI領域超越NPU
- 人工智能 (AI) 不僅僅是一項技術(shù)突破,它還是軟件編寫、理解和執(zhí)行方式的永久演變。建立在確定性邏輯和大部分順序處理之上的傳統(tǒng)軟件開發(fā)正在讓位于一種新的范式:概率模型、訓練有素的行為和數(shù)據(jù)驅(qū)動的計算。這不是一個轉(zhuǎn)瞬即逝的趨勢。AI 代表了計算機科學的根本性和不可逆轉(zhuǎn)的轉(zhuǎn)變 — 從基于規(guī)則的編程到基于學習的自適應系統(tǒng),這些系統(tǒng)越來越多地集成到更廣泛的計算問題和功能中。這種轉(zhuǎn)變需要對為其提供支持的硬件進行相應的更改。在 AI 架構(gòu)和算法不斷變化的世界中(現(xiàn)在和將來),為狹義定義的任務構(gòu)建高度專業(yè)化芯片的舊模型
- 關(guān)鍵字: 并行計算 GPU 邊緣AI NPU
依利浦實驗室AI平臺為Ceva NeuPro-Nano NPU優(yōu)化
- 目前已在超過 5 億臺設備中部署AI Virtual Smart Sensors?的全球人工智能軟件領導者依利浦實驗室(Elliptic Labs) (OSE: ELABS)? 和幫助智能邊緣設備更可靠、更高效地連接、感知和推斷數(shù)據(jù)的全球領先半導體產(chǎn)品和軟件IP授權(quán)許可廠商Ceva公司近日宣布雙方將開展合作,將依利浦實驗室的AI Virtual Smart Sensor Platform?引入Ceva最先進的NeuPro-Nano 神經(jīng)處理單元 (NPU),從而在超低功耗邊緣設備上實現(xiàn)下一代情境
- 關(guān)鍵字: 依利浦 Ceva NPU
邊緣AI廣泛應用推動并行計算崛起及創(chuàng)新GPU滲透率快速提升
- 人工智能(AI)在邊緣計算領域正經(jīng)歷著突飛猛進的高速發(fā)展,根據(jù)IDC的最新數(shù)據(jù),全球邊緣計算支出將從2024年的2280億美元快速增長到2028年的3780億美元*。這種需求的增長速度,以及在智能制造、智慧城市等數(shù)十個行業(yè)中越來越多的應用場景中出現(xiàn)的滲透率快速提升,也為執(zhí)行計算任務的硬件設計以及面對多樣化場景的模型迭代的速度帶來了挑戰(zhàn)。AI不僅是一項技術(shù)突破,它更是軟件編寫、理解和執(zhí)行方式的一次永久性變革。傳統(tǒng)的軟件開發(fā)基于確定性邏輯和大多是順序執(zhí)行的流程,而如今這一范式正在讓位于概率模型、訓練行為以及數(shù)
- 關(guān)鍵字: 并行計算 GPU GPU IP
芯原超低能耗NPU可為移動端大語言模型推理提供超40 TOPS算力
- 芯原股份(芯原)近日宣布其超低能耗且高性能的神經(jīng)網(wǎng)絡處理器(NPU)IP現(xiàn)已支持在移動端進行大語言模型(LLM)推理,AI算力可擴展至40 TOPS以上。該高能效NPU架構(gòu)專為滿足移動平臺日益增長的生成式AI需求而設計,不僅能夠為AI PC等終端設備提供強勁算力支持,而且能夠應對智慧手機等移動終端對低能耗更為嚴苛的挑戰(zhàn)。芯原的超低能耗NPU IP具備高度可配置、可擴展的架構(gòu),支持混合精度計算、稀疏化優(yōu)化和并行處理。其設計融合了高效的內(nèi)存管理與稀疏感知加速技術(shù),顯著降低計算負載與延遲,確保AI處理流暢、響應
- 關(guān)鍵字: 芯原 NPU 大語言模型推理 NPU IP
Neo Semiconductor將IGZO添加到3D DRAM設計中
- 存儲設備研發(fā)公司Neo Semiconductor Inc.(加利福尼亞州圣何塞)推出了其3D-X-DRAM技術(shù)的銦-鎵-鋅-氧化物(IGZO)變體。3D-X-DRAM 于 2023 年首次發(fā)布。Neo 表示,它已經(jīng)開發(fā)了一個晶體管、一個電容器 (1T1C) 和三個晶體管、零電容器 (3T0C) X-DRAM 單元,這些單元是可堆疊的。該公司表示,TCAD 仿真預測該技術(shù)能夠?qū)崿F(xiàn) 10ns 的讀/寫速度和超過 450 秒的保持時間,芯片容量高達 512Gbit。這些設計的測試芯片預計將于 2026 年推出
- 關(guān)鍵字: Neo Semiconductor IGZO 3D DRAM
SemiDynamics詳細介紹了一體化 RISC-V NPU
- 西班牙的 SemiDynamics 開發(fā)了一種完全可編程的神經(jīng)處理單元 (NPU) IP,它結(jié)合了 CPU、向量和張量處理,可為大型語言模型和 AI 推薦系統(tǒng)提供高達 256 TOPS 的吞吐量。Cervell NPU 基于 RISC-V 開放指令集架構(gòu),可從 8 個內(nèi)核擴展到 64 個內(nèi)核。這使設計人員能夠根據(jù)應用的要求調(diào)整性能,從緊湊型邊緣部署中 1GHz 的 8 TOPS INT8 到數(shù)據(jù)中心芯片中高端 AI 推理中的 256 TOPS INT4。這是繼 12 月推出的一體化架構(gòu)之后發(fā)布的,本白皮書
- 關(guān)鍵字: SemiDynamics RISC-V NPU
neo npu ip介紹
您好,目前還沒有人創(chuàng)建詞條neo npu ip!
歡迎您創(chuàng)建該詞條,闡述對neo npu ip的理解,并與今后在此搜索neo npu ip的朋友們分享。 創(chuàng)建詞條
歡迎您創(chuàng)建該詞條,闡述對neo npu ip的理解,并與今后在此搜索neo npu ip的朋友們分享。 創(chuàng)建詞條
關(guān)于我們 -
廣告服務 -
企業(yè)會員服務 -
網(wǎng)站地圖 -
聯(lián)系我們 -
征稿 -
友情鏈接 -
手機EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
京ICP備12027778號-2 北京市公安局備案:1101082052 京公網(wǎng)安備11010802012473
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
